home *** CD-ROM | disk | FTP | other *** search
/ Almathera Ten Pack 3: CDPD 3 / Almathera Ten on Ten - Disc 3: CDPD3.iso / ab20 / ab20_archive / utilities / misc / neural-network-2.lha / neural_code / Readme_V2.1st < prev    next >
Text File  |  1992-03-27  |  2KB  |  52 lines

  1.  
  2.      This package contains all the functions necessary to generate a
  3. Neural network which you can train and use in your programs.  The
  4. Neural network has an input layer, two hidden layers, and an ouput layer.
  5. The network is feedforward and fully connected.  You may specify an size for
  6. each layer at run-time.  This code is Public Domain and anyone can use it in
  7. any type of program.
  8.  
  9.      This is version 2 of the C++ Neural network code.  The only modifications
  10. made were changing from <stdio.h> I/O to <iostream.h> I/O.  This allows
  11. the code to be compiled under GCC2.  Also I removed the dependency on the
  12. File class from libg++.  The code still has a dependency on a String class
  13. but it can be removed by changing the prototypes of the following three
  14. functions:
  15. Neural_network (String& filename, ...);
  16. read_weights (String& filename, ...);
  17. save_weights (String& filename, ...);
  18.  
  19. Just change String& to char * in Neural_network.h and Neural_network.cc and
  20. recompile.  I only made them String& because GCC2 seems to have trouble
  21. passing a String as a char * reliably.  The variables 'filename' are used
  22. as char *'s in each function.
  23.  
  24. The following files are included in this package:
  25. C++ files
  26. Neural_network.cc --> C++ Neural_network class code
  27. Neural_network.h  --> C++ Neural_network header file
  28. xor_dbd.cc        --> Example of how to solve the XOR problem using the
  29.                       delta bar delta rule.
  30. xor_bp.cc         --> Example of how to solve the XOR problem using
  31.                       straight back propagation.
  32. weights.xor       --> Initialized weights that are read in by the XOR programs
  33.                       because the gcc,gpp rand () function generates a new
  34.                       sequence of random numbers everytime the program is
  35.                       run.  This file makes sure every XOR training session
  36.                       starts at the exact same place so you can see how
  37.                       changing learning parameters affects the rate of
  38.                       convergence.
  39.  
  40. Document files
  41. Readme_V2.1st        --> This file
  42. Neural_network.doc   --> Explanation of each Neural network function.
  43.  
  44. I would like to here from anyone using this code on its performance or any
  45. improvements or options that should be added.
  46.  
  47. You can email me at
  48.  
  49. anstey@sun.soe.clarkson.edu
  50.  
  51.  
  52.